1,067 research outputs found

    Design, assembly and test of a bioreactor for the electrical stimulation of neuronal cells

    Get PDF
    Millions of people have suffered injury to their nervous system, which by its limited self- healing capacity, represents life-long complications, associated with loss of motor and sensory function. Though limited, this capacity is being extensively explored, and has been shown to increase through the use of electrical stimulation (ES). Therefore, this work was oriented towards the development of a setup for ES of neuronal cells, allowing the assessment of its potential in promoting neuronal regeneration. An ES chamber was designed using the CAD software Fusion 360TM and produced by machining of a poly(methyl methacrylate) (PMMA) block. A fixation system for con- ductive scaffolds was included, using stainless steel electrodes, which fits the description for a direct coupling method found in the literature. Connection to a power supply or a function generator is possible, allowing for delivery of both direct current (DC) and alternating current (AC) to cells. In a different design, electrical insulation of the media was attempted, defectively. The nature of this work supported the need for incorporating conductive polymers (CPs) in the scaffolds used for neuronal differentiation of cells in the stimulation chamber and so, poly(lactic acid) (PLA) aligned electruspun fibers were produced and coated with poly(3,4-ethylenedioxythiophene) (PEDOT) using vapor-phase polymerization (VPP). In this process, the polymerization takes place through the reaction of Iron(III) p-toluenesul– fonate/Fe(III)Tosylate (FeTos) included in the scaffolds with 3,4-ethylenedioxythiophene (EDOT) on vapor phase. This fibers did not exhibit cytotoxicity and electrical character- ization was attempted, using the bioreactor as a 2-point probe. Film casting using the same polymeric solutions failed, as an increase in the ratio of PLA to FeTos did not reduce film brittleness. In vitro assays were conducted both with and without stimulation. SH-SY5Y extended neurites after only 2 days of exposure to retinoic acid (RA). Cells maintained some level of differentiation and neurite directionality with time, when cultured in the produced fibers. Importantly, an electrical field of 500 mV/ cm was applied 1 h/day, for 9 days, without significant improvements on neuronal differentiation.Milhões de pessoas já sofreram lesões no seu sistema nervoso, o que, dada a sua capaci- dade limitada de regeneração, origina complicações a longo prazo, associadas à perda de função motora e sensorial. Embora limitada, esta capacidade tem sido amplamente explo- rada, e já se provou poder ser melhorada, com recurso a estimulação elétrica. Assim, este trabalho focou-se no desenvolvimento de um sistema para estimulação elétrica de células neuronais, permitindo avaliar o seu potencial para promover regeneração neuronal. Desenhou-se um sistema para estimulação neuronal recorrendo ao software Fusion 360TM e fabricou-se o mesmo por maquinagem de um bloco de PMMA. A montagem inclui um sistema para fixação de scaffolds condutores, usando elétrodos de aço inoxidável, correspondendo a um sistema de acoplamento direto, segundo a literatura. É possível estabelecer contactos elétricos com uma fonte de tensão ou um gerador de funções, o que permite fornecer às células correntes diretas e alternadas. Houve uma tentativa, sem sucesso, para um novo design que permitisse isolamento elétrico do meio. A natureza deste trabalho justificou a incorporação de polímeros condutores nos scaffolds usados para diferenciação neuronal de células no sistema de estimulação desen- volvido. Assim, foram eletrofiadas fibras alinhadas de PLA e, mais tarde, revestidas por PEDOT recorrendo a VPP. Neste processo, a polimerização ocorreu pela reação do FeTos, incluído nos scaffolds, com EDOT em fase de vapor. Foram feitas tentativas de produção de filmes, usando as mesmas soluções poliméricas, contudo verificou-se que o aumento da razão PLA:FeTos não reduziu a sua fragilidade. Foram realizados testes in vitro com e sem estimulação. As células SH-SY5Y estende- ram neurites, com apenas dois dias de exposição a meio contendo ácido retinóico. Quando semeadas nas fibras produzidas, estas células mantiveram um nível moderado de diferen- ciação neuronal ao longo do tempo, alinhando as suas extensões na direção das fibras. É de salientar que a exposição das células a um campo de 500 mV/ cm aplicado 1 h/dia, por 9 dias, não resultou num aumento significativo de diferenciação neuronal

    A new paradigm: sustainable mobility

    Get PDF
    The purpose of this individual report is to understand one of the main risks associated with clean energy mobility solutions and how it can impact revenue of electric vehicle sales. The potential restrictions on lithium extraction, a silvery - white metal essential for rechargeable batteries, can reversal the upward supply of electrified powered motors and undermine the demand considering thein crease in cost ownership. These limitations dependent on supranational regulatory decisions and scarcity of natural resources which will affect the market for electric powered vehicles which will influence Daimler’s revenue

    Learning predictive models from temporal three-way data using triclustering: applications in clinical data analysis

    Get PDF
    Tese de mestrado, Ciência de Dados, Universidade de Lisboa, Faculdade de Ciências, 2020O conceito de triclustering estende o conceito de biclustering para um espaço tridimensional, cujo o objetivo é encontrar subespaços coerentes em dados tridimensionais. Considerando dados com dimensão temporal, a necessidade de aprender padrões temporais interessantes e usá-los para aprender modelos preditivos efetivos e interpretáveis, despoleta necessidade em investigar novas metodologias para análise de dados tridimensionais. Neste trabalho, propomos duas metodologias para esse efeito. Na primeira metodologia, encontramos os melhores parâmetros a serem usados em triclustering para descobrir os melhores triclusters (conjuntos de objetos com um padrão coerente ao longo de um dado conjunto de pontos temporais) para que depois estes padrões sejam usados como features por um dos mais apropriados classificadores encontrados na literatura. Neste caso, propomos juntar o classificador com uma abordagem de triclustering temporal. Para isso, idealizámos um algoritmo de triclustering com uma restrição temporal, denominado TCtriCluster para desvendar triclusters temporalmente contínuos (constituídos por pontos temporais contínuos). Na segunda metodologia, adicionámos uma fase de biclustering para descobrir padrões nos dados estáticos (dados que não mudam ao longo do tempo) e juntá-los aos triclusters para melhorar o desempenho e a interpretabilidade dos modelos. Estas metodologias foram usadas para prever a necessidade de administração de ventilação não invasiva (VNI) em pacientes com Esclerose Lateral Amiotrófica (ELA). Neste caso de estudo, aprendemos modelos de prognóstico geral, para os dados de todos os pacientes, e modelos especializados, depois de feita uma estratificação dos pacientes em 3 grupos de progressão: Lentos, Neutros e Rápidos. Os resultados demonstram que, além de serem bastante equiparáveis e por vezes superiores quando comparados com os resultados obtidos por um classificador de alto desempenho (Random Forests), os nossos classificadores são capazes de refinar as previsões através das potencialidades da interpretabilidade do modelo. De facto, quando usados os triclusters (e biclusters) como previsores, estamos a promover o uso de padrões de progressão da doença altamente interpretáveis. Para além disso, quando usados para previsão de prognóstico em doentes com ELA, os nossos modelos preditivos interpretáveis desvendaram padrões clinicamente relevantes para um grupo específico de padrões de progressão da doença, ajudando os médicos a entender a elevada heterogeneidade da progressão da ELA. Os resultados mostram ainda que a restrição temporal tem impacto na melhoria da efetividade e preditividade dos modelos.Triclustering extends biclustering to the three-dimensional space, aiming to find coherent subspaces in three-way data (sets of objects described by subsets of features in a subset of contexts). When the context is time, the need to learn interesting temporal patterns and use them to learn effective and interpretable predictive models triggers the need for new research methodologies to be used in three-way data analysis. In this work, we propose two approaches to learn predictive models from three-way data: 1) a triclustering-based classifier (considering just temporal data) and 2) a mixture of biclustering (with static data) and triclustering (with temporal data). In the first approach, we find the best triclustering parameters to uncover the best triclusters (sets of objects with a coherent pattern along a set of time-points) and then use these patterns as features in a state-of-the-art classifier. In the case of temporal data, we propose to couple the classifier with a temporal triclustering approach. With this aim, we devised a temporally constrained triclustering algorithm, termed TCtriCluster algorithm to mine time-contiguous triclusters. In the second approach, we extended the triclustering-based classifier with a biclustering task, where biclusters are discovered in static data (not changed over the time) and integrated with triclusters to improve performance and model explainability. The proposed methodologies were used to predict the need for non-invasive ventilation (NIV) in patients with Amyotrophic Lateral Sclerosis (ALS). In this case study, we learnt a general prognostic model from all patients data and specialized models after patient stratification into Slow, Neutral and Fast progressors. Our results show that besides comparable and sometimes outperforming results, when compared to a high performing random forest classifier, our predictive models enhance prediction with the potentialities of model interpretability. Indeed, when using triclusters (and biclusters) as predictors, we promoting the use of highly interpretable disease progression patterns. Furthermore, when used for prognostic prediction in ALS, our interpretable predictive models unravelled clinically relevant and group-specific disease progression patterns, helping clinicians to understand the high heterogeneity of ALS disease progression. Results further show that the temporal restriction is effective in improving the effectiveness of the predictive models

    Optimisation of algorithms to predict biomass and size distribution of fish reared in cages, using the Aquanetix production management software

    Get PDF
    This Thesis aims to optimise the algorithms used to estimate actual biomass and weight distribution in gilthead sea bream (Sparus aurata) and European sea bass (Dicentrarchus labrax) cages by the Aquanetix Software. For this, we first try to understand the practical functioning of a fish farm that uses cages and how can the used procedures affect the collection of data or its veracity. Then, we use the data collected by the company and the observations made on the field in order to attempt the optimization of the algorithms that estimate biomass and weight distribution of the Aquanetix Software. The data parameters analysed were the moving average of the estimated biomass, mortality, density, number of fish and mean weight. Two time periods were tested for the moving average of the estimated biomass, at fourteen and thirty days prior to the first harvest. Between these two periods, the one at thirty days seemed to provide the better biomass estimation. Mortality and density showed to have no apparent influence in the deviations found between the biomass estimations and the total biomass harvested. The number of fish was found to be overestimated in the majority of the studied cages (n=7), with the exception of only cage 109. The mean weight was found to be underestimated in the majority of the studied cages, with the exception of only cage 03. At the end, all proposed goals were achieved. In conclusion, every cage of sea bream studied (n=4) shows an under estimation of the mean weight of fish at first harvest, which in turn leads to an underestimation of the biomass. This suggests that every sea bream cage is currently being under fed, most likely, due to a fault on the feeding model which is probably overestimating the specific feeding rate (SFR) for this species. Alterations should be made to the feeding model in order to resolve this unbalance. The results for the sea bass cages were shown to be more inconclusive since all of the studied cages for this species (n=3) appear to have no common reason to explain the errors found for the estimation of their biomass.O crescimento do sector da aquacultura está diretamente relacionado com o rápido aumento da população humana e a sua consequente necessidade de uma maior quantidade de itens alimentares. Entre as espécies cultivadas com maior valor comercial, a produção de Dourada (Sparus aurata) e de Robalo (Dicentrarchus labrax) tem seguido a norma, demonstrando um aumento em procura e cultivo. Em Espanha, a produção de dourada e robalo compreende 33.9% e 38.8%, respectivamente, de toda a produção em aquacultura. Um dos problemas mais frequentes neste setor é a correta estimação da biomassa, cujo conhecimento providenciaria a possibilidade de uma melhor gestão dos regimes alimentares, das densidades em stock e do melhor momento para iniciar a colheita. No entanto, o ambiente aquático tende a apresentar dificuldades acrescidas quando tentamos estimar a biomassa presente nas jaulas. Peixes em jaulas estão normalmente expostos a um vasto leque de condições ambientais como disponibilidade de alimento, luz, temperatura, salinidade e níveis de oxigénio que podem variar ao longo de curtos (minutos, horas) e longos (dias, estações) períodos de tempo. Para além destes, fatores como a densidade são também conhecidos por causar diferentes tipos de impactos no bem-estar, e consequente crescimento, dos peixes. Em aquacultura, é comum o uso de modelos bioenergéticos para estimar crescimento, quantidades de ração consumida e taxas de alimentação. Estes modelos são baseados em equações de consumo energético de acordo com conversão de energia no corpo, sendo capazes de precisamente descrever um gasto energético e a sua relação com fatores influentes, como práticas de gestão, fatores ambientais, peso e densidade. Contudo, estes resultados são normalmente afetados por desvios causados por submodelos e pelo uso de dados experimentais indiretos, como a qualidade dos alevins, composição da ração, comportamento e más praticas de gestão. É necessário recordar que estes modelos são construídos baseados em fatores comuns a todas as empresas, mas que todas estas empresas têm procedimentos específicos e únicos que influenciam a forma em que a informação é registada e introduzida no sistema, o que irá por sua vez influenciar de forma distinta o desempenho preciso do modelo. Este estudo foi realizado na Piscialba, Piscifactorias Albaladejo S. L., uma empresa localizada em San Pedro del Pinatar, Murcia, Espanha. A primeira parte deste estudo teve como principal objetivo entender o funcionamento diário de uma empresa que usa jaulas para a produção de peixe, tendo em conta a forma em que as práticas executadas afetariam a recolha de dados e a sua veracidade. A segunda parte, teve como principal objetivo o uso dos dados recolhidos pela empresa e as observações feitas em campo na tentativa de otimizar os algoritmos de estimação de biomassa usados pelo software Aquanetix. Foram estudadas um total de sete jaulas previamente pescadas na totalidade, sendo quatro delas utilizadas na produção de dourada e as restantes três na produção de robalo. Para cada das jaulas estudadas, foram analisados dados referentes à média móvel da biomassa estimada, à mortalidade, à densidade, ao numero de peixes e ao peso médio. A média móvel da biomassa estimada foi testada usando dois períodos de tempo, um de catorze e outro de trinta dias, o desvio destes valores foi calculado contra o valor da biomassa total capturada, em cada jaula. Os dados para a mortalidade e para a densidade foram analisados como a média dos quinze dias antecedentes à primeira pesca. Por ultimo, foram analisados os dados referentes ao numero de peixes e ao peso médio estimados no dia da primeira pesca, sendo o desvio destes valores calculado contra o valor do numero total de peixes capturados e do peso médio de todas as capturas, respetivamente. Dos dois períodos de tempo testados para a média móvel da biomassa estimada, o que demonstrou os melhores resultados foi o período de trinta dias, tendo cinco das sete jaulas estudadas demonstrado uma estimativa mais próxima da realidade aquando o uso deste período. Os dados para ambos os parâmetros de mortalidade e densidade não mostraram influencia nos desvios encontrados para a estimação da biomassa. O numero de peixes estimado demonstrou uma superestimação em todas as jaulas estudadas, com a exceção da jaula 109, sendo esta superestimação esperada visto que dados de mortalidade e possíveis fugas são dos mais difíceis de registar. Os dados referentes ao peso médio demonstraram uma subestimação em todas as jaulas estudadas, com a exceção da jaula 03. Em suma, foi possível verificar que em todas as jaulas utilizadas para a produção de dourada existe uma subestimação do peso médio dos peixes aquando da primeira colheita. Este facto é responsável pelos desvios encontrados para a estimação da biomassa. Isto sugere que atualmente estas jaulas estão a ser subalimentadas, provavelmente, devido a uma falha no modelo de alimentação que deve estar a superestimar a taxa de alimentação especifica (SFR) para esta espécie. Tendo em conta estes resultados, são sugeridas alterações no modelo de alimentação. Talvez pelo uso dos erros encontrados na estimação da biomassa o SFR possa ser reduzido para os tamanhos de peixes capturados e para as temperaturas observadas, sendo as modificações feitas de forma proporcional aos erros encontrados. No que diz respeito às jaulas utilizadas na produção de robalo, os resultados encontrados foram inconclusivos uma vez que as jaulas estudadas não apresentam nenhum motivo comum para os erros encontrados na estimação da biomassa

    Mecanismos para controlo e gestão de redes 5G: redes de operador

    Get PDF
    In 5G networks, time-series data will be omnipresent for the monitoring of network metrics. With the increase in the number of Internet of Things (IoT) devices in the next years, it is expected that the number of real-time time-series data streams increases at a fast pace. To be able to monitor those streams, test and correlate different algorithms and metrics simultaneously and in a seamless way, time-series forecasting is becoming essential for the pro-active successful management of the network. The objective of this dissertation is to design, implement and test a prediction system in a communication network, that allows integrating various networks, such as a vehicular network and a 4G operator network, to improve the network reliability and Quality-of-Service (QoS). To do that, the dissertation has three main goals: (1) the analysis of different network datasets and implementation of different approaches to forecast network metrics, to test different techniques; (2) the design and implementation of a real-time distributed time-series forecasting architecture, to enable the network operator to make predictions about the network metrics; and lastly, (3) to use the forecasting models made previously and apply them to improve the network performance using resource management policies. The tests done with two different datasets, addressing the use cases of congestion management and resource splitting in a network with a limited number of resources, show that the network performance can be improved with proactive management made by a real-time system able to predict the network metrics and act on the network accordingly. It is also done a study about what network metrics can cause reduced accessibility in 4G networks, for the network operator to act more efficiently and pro-actively to avoid such eventsEm redes 5G, séries temporais serão omnipresentes para a monitorização de métricas de rede. Com o aumento do número de dispositivos da Internet das Coisas (IoT) nos próximos anos, é esperado que o número de fluxos de séries temporais em tempo real cresça a um ritmo elevado. Para monitorizar esses fluxos, testar e correlacionar diferentes algoritmos e métricas simultaneamente e de maneira integrada, a previsão de séries temporais está a tornar-se essencial para a gestão preventiva bem sucedida da rede. O objetivo desta dissertação é desenhar, implementar e testar um sistema de previsão numa rede de comunicações, que permite integrar várias redes diferentes, como por exemplo uma rede veicular e uma rede 4G de operador, para melhorar a fiabilidade e a qualidade de serviço (QoS). Para isso, a dissertação tem três objetivos principais: (1) a análise de diferentes datasets de rede e subsequente implementação de diferentes abordagens para previsão de métricas de rede, para testar diferentes técnicas; (2) o desenho e implementação de uma arquitetura distribuída de previsão de séries temporais em tempo real, para permitir ao operador de rede efetuar previsões sobre as métricas de rede; e finalmente, (3) o uso de modelos de previsão criados anteriormente e sua aplicação para melhorar o desempenho da rede utilizando políticas de gestão de recursos. Os testes efetuados com dois datasets diferentes, endereçando os casos de uso de gestão de congestionamento e divisão de recursos numa rede com recursos limitados, mostram que o desempenho da rede pode ser melhorado com gestão preventiva da rede efetuada por um sistema em tempo real capaz de prever métricas de rede e atuar em conformidade na rede. Também é efetuado um estudo sobre que métricas de rede podem causar reduzida acessibilidade em redes 4G, para o operador de rede atuar mais eficazmente e proativamente para evitar tais acontecimentos.Mestrado em Engenharia de Computadores e Telemátic

    Python-tutor on program comprehension

    Get PDF
    Dissertação de mestrado integrado em Informatics EngineeringThe time spent analysing a software with the goal of comprehending it is huge and expensive. Reduce the time necessary to a professional understand a program is essential for the advance of technology. Therefore, the program comprehension has always been an area of interest as realizing how a programmer thinks can help facilitate many of their daily activities, making the developer a more productive worker. As the world begins to reshape itself thanks to the advances of technology, this area of research gains more and more relevance. This project aim to study the tools developed within the comprehension of programs that usually are associated to software maintenance and analysing the animation web tool Python-Tutor. After this study, it’s required to explore Python-Tutor to understand how it can be improved with the addition of important features to program comprehension as Control Flow Graph (CFG), Data Flow Graph (DFG), Function Call Graph (FCG) and System Control Graph (SCG). The idea behind this is to allow new programmers to view their programs and create a visual image of them in order to understand them and improving their skills to understand someone else’s programs.O tempo despendido a analisar um programa de forma a compreendê-lo é enorme e dispendioso. Reduzir o tempo necessário para um profissional compreender um programa é fulcral para o avanço da tecnologia. Assim, a compreensão de programas sempre foi uma área de interesse pois perceber como um programador pensa pode ajudar a facilitar muitas atividades diárias deste, tornando o programador num trabalhador mais produtivo. À medida que o mundo se vai moldando à informática, esta área de pesquisa tem ganho cada vez mais relevância. Neste projecto iremos estudar as ferramentas desenvolvidas no âmbito da compreensão de programas associadas à manutenção de software e analisar a ferramenta de animaçãoweb Python-Tutor. Iremos explorar esta ferramenta de modo a perceber como a podemos melhorar através da inclusão de novos recursos importantes para a compreensão de programas, tais como: o Grafo de Controlo de Fluxo, Grafo de Fluxo de Dados e o Grafo de Chamadas de Funções. A ideia base passa então, por permitir aos novos programadores visualizar os seus programas e criar uma imagem visual destes de modo a os compreenderem e a melhorarem as suas competências para compreenderem programas de outrem
    corecore